15 Hulyo 2025 - 09:34
“Pagpatay gamit ang Artificial Intelligence”: Iran, Biktima ng Nakakamatay na Teknolohiyang Algoritmiko

Sa gitna ng taong 2025, ang pagpatay sa ilang personalidad sa Iran ay nagbukas ng mata ng mundo sa mga sandatang walang komandante at walang konsensiya—isang linya ng code lang sa memorya ang sapat upang magdesisyon ng kamatayan.

Sa panahon ng AI, hindi na tao ang pumapatay

Ayon sa ulat na iniulat ng Ahensyanag Pandaigdigang Balita ng Ahl al-Bayt (sumakanila nawa ang kapayapaan) -: Balitang ABNA :- Lumitaw ang mga sistema na, batay sa eksaktong kalkulasyon at mga algorithm na natututo, ay tumutukoy sa target at sinisira ito sa tamang sandali—nang walang partisipasyon ng tao sa desisyon.

Mula sa matatalinong pagpatay sa Iran hanggang sa mga awtomatikong digmaan sa Ukraine, ang mundo ay humaharap sa bagong henerasyon ng mga sandata: mga sandatang nag-iisip, natututo, at pumapatay. Dito pumapasok ang etika, batas, at sangkatauhan sa pinakamadilim na pagsubok ng digital na panahon.

Ayon kay Dr. Khalid Walid Mahmoud, isang eksperto sa cyber policy, ang AI ay hindi na lamang kasangkapan sa araw-araw, kundi isa nang pangunahing aktor sa larangan ng digmaan. May mga sistemang gumagawa ng desisyon sa buhay at kamatayan nang walang direktang kontrol ng tao.

Ang tinatawag na “algorithmic killing” ay isang makasaysayang pagbabago sa kasaysayan ng digmaan, na nagtataas ng mga tanong tungkol sa hinaharap ng armadong tunggalian, saklaw ng desisyong pantao, at etika ng digmaan sa digital na panahon.

Mahigit 30 bansa ang kasalukuyang nagde-develop ng automated weapon systems. Binubuo ang mga ito ng:

- Sensor networks na nangongolekta ng datos

- Machine learning algorithms na nag-aanalisa ng pattern at ugali

- Automated execution systems na gumagawa ng desisyon nang walang interbensyon ng tao

Ang mga sistemang ito ay epektibo sa komplikadong kapaligiran tulad ng urban warfare o anti-terror operations kung saan mabagal o nagkakamali ang tao.

Halimbawa sa Iran

Ang mga pagpatay sa Iran noong kalagitnaan ng 2025 ay isinagawa gamit ang matatalinong combat systems—hindi ordinaryong drones. Kayang magmanman ng target sa loob ng ilang linggo, mag-analisa ng malalaking datos, at pumili ng tamang sandali para umatake batay sa lokasyon, panahon, presensya ng sibilyan, at epekto sa media. Ang ilang operasyon ay may 92% accuracy.

Pinakadelikadong aspeto:

Ang kakayahang patuloy na matuto. Hindi sila gumagana sa fixed programming—nagbabago sila batay sa bagong datos at karanasan. Kaya’t nagiging hindi mahulaan ang kanilang kilos.

Etikal na tanong

Sino ang responsable kung may sibilyang mamatay?

- Programmer?

- Operator?

- Gobyerno?

O dapat bang ituring ang AI bilang isang independent legal entity na walang malinaw na pagkakakilanlan o pananagutan?

Karanasan ng Israel

Pinagsama ang Unit 8200 (electronic warfare) at mga startup sa data analysis upang bumuo ng mga systemang nag-aalis ng banta bago pa ito lumitaw—isang uri ng preventive algorithmic killing.

Ang mga operasyon ay walang presensiya ng tao sa field. Lahat ay kinokontrol mula sa digital centers.

Hindi lang Israel o U.S.

Pati China, Russia, Turkey, at iba pang regional powers ay nakikipagkompetensiya sa pag-develop ng command systems na algorithmic.

May mga AI networks na nag-uugnay sa ground, air, at sea units—walang human oversight, gamit ang real-time sensor data.

Panganib ng algorithmic warfare

- Puwedeng magsimula ang digmaan dahil sa computational error

- Puwedeng gamitin ng non-state actors (hackers, mercenaries)

- Puwedeng mag-target ng tao batay sa mukha o digital signal

Psychological warfare

AI-based cyber attacks ay tumatarget sa moral ng kalaban gamit ang:

- Fake news

- Deepfake videos

- Fake accounts

Ito ang tinatawag na soft war—hindi katawan ang tinatamaan, kundi isipan.

Legal vacuum

Walang malinaw na international framework para sa mga killer systems.

Ang Geneva Convention ay para sa human warfare—hindi sapat sa AI warfare.

Etika bilang math variable

Ang algorithm ay hindi nakakaunawa ng pagkakaiba ng bata at kalaban—nagko-compute lang ito. Kapag lumampas ang “threat level,” umaatake ito. Ang etika ay nagiging numero, hindi prinsipyo.

 Tao bilang variable

Hindi na siya gumagawa ng desisyon—tumatanggap na lang ng resulta. Maaaring ang kanyang kamatayan ay naka-log sa isang ulat na AI lang ang nakabasa.

Konklusyon

Kung hindi agad kikilos ang global community upang gumawa ng bagong batas, ang digmaan sa hinaharap ay hindi sa pagitan ng mga hukbo, kundi ng mga algorithm—at tayo, magiging digital targets na lamang.

……………….

328

Your Comment

You are replying to: .
captcha